Aktuality  |  Články  |  Recenze
Doporučení  |  Diskuze
Grafické karty a hry  |  Procesory
Storage a RAM
Monitory  |  Ostatní
Akumulátory, EV
Robotika, AI
Průzkum vesmíru
Digimanie  |  TV Freak  |  Svět mobilně
10.10.2007, Milan Šurkala, aktualita
Ačkoli se počítačovým hrám nevěnujeme, přeci jen dnes uděláme výjimku, neboť připravovaná hra Crysis má být neuvěřitelnou grafickou podívanou stejně jako neuvěřitelnou zátěží i pro ten nejvýkonnější hardware. Podívejme se, co vše budete...
marek p | 14.10.200711:20
Tak si myslím.že na mém budoucím obyčejným PC to pojede uplně normálně.I když bude mít dx10 grafiku,tak to pojede na XP.Ten rozdílek ve vzhledu je fakticky daný jen a pouze užitím geometry šáderu.A jelikož jeho výpočty provádějí stream procesory,tak při jeho výrazným použití to bude pomalejší než v dx9.
Odpovědět0  0
Mitisko2 | 13.10.200714:04
Kamarati moji poviem vam tak, ze DX10 a Vista prakticky naozaj zaťažuje viac system, mna najviac vytaca to dlhe spustanie a dlhe vypinanie systemu aj ked vsetko ma svoje aj zaporne aj kladne stranky...Celkovo sa mi to nepaci lebo v dnesnej dobe si kupim procesor, ktory ma niekolko nasobne vyssi vykon ako pred par rokmi nejaky Duron 500MHz a co pre mna zarazajuce furt musim cakat na nejake dlhe loading­-ovanie a bootovanie systemu... Viem z historii ze vela hry islo aj na slabsich konfiguraciach systemu ako boli minimalne len to bolo tak spravene aby to neslo a to preto aby si clovek musel kupit novy pc.Nejdem konkretizovat lebo by som tu napisal dlhy sloh ale to iste sa deje aj dnes... Keby programatori troska obmedzili tie narocne graficke operacie a vyhli sa tomu a programovali to ,,rozumnejšie,, tak by to vyzeralo skoro tak isto a bolo by to o polovicu menej narocne na hardware... Oni to aj naschval take robia lebo tym vlastne pohanaju pokrok cim narocnejsie hry tym clovek si musi kupovat novy procesor novu graficku viac pamete a tym zarobi AMD intel Nvidia microsoft a to su dnes spolocnosti ktore su najsilnejsie na svete tak musia nejak ovladat trh ... :­)­)­) Si pametam asi najvacsi pokrok co sa kedy stal bolo ked programatori programovali zvlast hry pre rozhranie Direct X a pre Open GL s pouzitim VooDoo kariet to ked ste tu istu hru pustili pod normalnou grafickou kartou a pod VooDoo to bolo sto a jedno taky priklad Need for Speed 2 SE alebo Carmageddon 2 a boli graficke karty aj draksie ako voodoo a hra bola asi o polovicu horsie natom ako na voodoo... co bolo velmi zaujmave a doteraz nechapem ako takato spolocnost s takym grafickym nadskokom mohla zmiznut z trhu je to velmi zaujmave a clovek by si mohol domyslet kadejake dovody... Dnes je cely IT svet o obchodnych praktikach a o zisku aj teraz co robi intel s AMD chce len domynantne miesto na trhu... Je to taka troska ,,spinava,, hra. Dakujem za priestor s pozdravom. :)
Odpovědět0  0
hudsonstan (64) | 15.10.200714:46
To bude tím, že tomu nerozumíš a nevidíš do hloubky té technologie. 3Dfx sice měla náskok, ale ten se musí udržovat! Nehledej za vším spiknutí...

Ageia zařve na stejnou chybu. Kdo chce na všechno přídavné karty? Grafiku dělat neumí, takže kombo karta nehrozí a tak pojde. Nebo spíš ji spolkne někdo silnější v kramflecích. Stejně jako to bylo s 3Dfx ­(Voodoo­).
Odpovědět0  0
vasedl (64) | 11.10.200715:54
By mě zajímalo, jak mi to bude šlapat na mém stroji:P4 630@4GHz,GB7600GT,GB 8i945P­-Pro,1,5Gb DDR2 RAM.
Odpovědět0  0
FesterE36 | 12.10.20078:09
To zistis ked tu hru zapnes. Proste neda sa vedet ako to pojde ked hra este nevysla, aj oficialne poziadavky su vzdy velmi relativne. Treba pripocitat jak je optimalizovany system, SW a pod.
Odpovědět0  0
Tunseng (346) | 11.10.200712:34
souhlasim, humbuk kolem dx10 se dela jen tak na oko. Kazdemu krome zakaznika to jen vydela, tak proc by se nepridal. Microsoft diky dx10 asi proda vice vist ... herni vyvojari se zase mohou prsit novym technologickym mylnikem na ktery hraci slysi ­- resp. kteremu rozumi ... atd atd .. ze skutecnost je takova ze rozdily mezi dx9 a 10 jsou v podstate jen minimalni, malo koho z toho nadseneho davu zajima, dav se chce bavit, dav chce byt oblbovan
Odpovědět0  0
FesterE36 | 11.10.200714:24
Ja si myslim ze DX10 prinasa geometry shader a s nim nove efekty cize mas pravdu, ale nie aboslutnu. Ale aj cely geometry shader­(modifikacie vertexov­) mi pripada ako podvod, lebo per­-vertexova voda a displacement mapping tu uz mame davno pred prichodom DX10
Odpovědět0  0
Grovik (54) | 11.10.200714:43
DX 10 mel byt krok vpred protoze se zmenila archytektura GPU ­(U Nvidie tolik zase ne, ale u ATI docela vyznamne­).
Bohuzel DX 10, v podstate na tohle nema vliv, protoze oba vyrobci GPU, ladi ovladace na vykon tzn pomahaji si ruznymi triky ktere DX obchazi.
Tady je taky znat ztrata ATI proti Nvidii kdy DX by meli hrat do karet ATI ale vlastne nehraji protoze Nvidia i s horsi archytekturou je rychlejsi ­(tohle uz skoro neplati, davam to jen jako priklad, protoze Uprava ovladacu ATi tohle sandno dohnala, ale prave na nutnosti upravit ovladace je jasne patrne ze DX 10 nejsou tim cim meli byt.­)
V kratkosti receno, DX10 a DX9 se lisi tim ze DX podporuje nekolik malo efektu primo takze se nemusi delat oklikou ­- ve vysledku se to projevuje tak, ze sice DX vypadaji ­(trosku­) lepe ovsem vykonvy propad celeho systemu je tak velky, ze kdyby to nekdo radsi napsal na DX9 udelal by lip.
Odpovědět0  0
FesterE36 | 11.10.200715:14
Skor naopak ne? DX10 nieco ako kvazi uprava DX9 s vacsou podporou efektou. Napriklad Crysis v plnej parade pod DX10 by isiel aj na DX9 lenze by siel rapidne pomalsie, kedze by to bolo narocne aj pre high­-end karty tak spravily DX10 ktory nejakym sposobom robit tieto graficke efekty podstatne menej narocne.
Nejak tak to chapem ja, pritom netvrdim ze mam pravdu:­)
Odpovědět0  0
Grovik (54) | 11.10.200715:32
Tak jak pises to deklaroval MS, ale realita je takova jak pisu ja ;­-­). Tzn. Hra pod DX bezi a vypada stejne ­(skoro­) rozdily jsou minimalni, ovsem narocnost je znacne vyssi.
MS tvrdil opak tzn. ze pod DX budou mit hry stejne efekty jako pod DX9, ale s mensima narokama.
Odpovědět0  0
Festere36 | 11.10.200716:36
Tvoje tvrdenie nehcem spochybnoat lebo je dost pravdepodobne: ked by bola renderovana scena pisana v DX9 bolo by lepsie. Mysalel si to len pre DX9 karty alebo aj DX10. Lebo ked pre obe tak potom DX10 nema ucel, lebo teoreticky naco kupovat DX10 kartu ked to moze ist aj DX9 kartou. A prakticky ucel to musi mat, podla mna taky ze programatorom nestacilo 5 aut a 3 domy tak si povedali ze spravime super grafiku aka sa doposial nevidela po ktorej budu ludia tuzit. Tak sa vsetci hohodli ­(MS, AMD, nVIDIA­)s Vistou a DX10 kartami ze ked budu chcet taku grafiku musia si zaplatit za DX10 karty a mat Vistu a az vtedy hra umozni high details, ktore by bez tohto markeingoveho triku bezali kludne aj v DX9...
Ciste hypotezy:)
Odpovědět0  0
Grovik (54) | 11.10.200716:56
Presne tak to je.
DX10 jsou jediny duvod proc by si Hrac mel koupit OS ktery mu sezere 30% vykonu jen svou existenci.
Uz z toho duvodu nelze cekat ze na Viste ­(tedy pod DX10­) bude neco samo od sebe rychlejsi.
Navic DX nejsou to co urcuje samoosebe rychlost to je jen programatorske API, fakticky vliv na rychlost ma HW a jeho ovladace. Stejne tak na kvalitu grafiky, firmy osekavaji grafiku v ovladacich kvuli rychlosti.
Ted u nove generace GFX je to desne videt!
Nove karty od Nvidie jsou vic sprahnute se strym modelem naopak ATI udelal velky krok a postavila GPU vic variabilne. Nvidia je v navrhu GPU rekneme o dva kroky za ATI.
Ve vysledku je to potom znat, ATI doladuje ovladace a jeji karty , urcene pro nizsi tridu, lezou vykonem nahoru. Prave proto, ze Karta je navrzena pro Unifikovane shadery SM4, ale system stale pocita se SM3 ­(i pod DX10 se to tak chova­).
Proto i hry pro DX10 jsou jen nepatrne hezci nez pro DX9 a to vetsinou proto ze se v DX9 neco nepouzije.
Odpovědět0  0
_AL_ | 11.10.200717:36
ATi doladuje ovladace? Co to tak vzit z opacnyho konce, hm? Ze ATi vydava s novyma kartama absolutne neodladeny ovladace, a az postupem casu to dohani. O tom ze je to videt na novy generaci karet je nesmysl, jelikoz to tak je u ATi odjakziva..
a koukni na THG, tam mas vykon novych ATi v prehlednym DX10 only testu ­(kde by podle tebe ta jejich pokrocila architektura mela jasne vest)
Odpovědět0  0
Grovik (54) | 11.10.200718:33
Presneji nez doladuje, by melo byt ze prepisuje ovladace tak aby odpovidali hram napsanym pro DX9 a nasledne patchnutym na DX10.
Videt je to na te nove generaci proto protoze lze srovnavat dva rozdilne pristupy.
1. ATI kompletne prekopane jadro, ktere je plne unifikovane, v podstate se jedna o obrovske mnozstvi vektorovych jednotek. Tenhle navrh ma mnoho vyhod, ale i par nevyhod. SW napsany tak ze pocita s urcitym mnozstvim specialnich jednotek, tady proste nefunguje dobre a je potreba to v ovladacich doladit. Prvni testy, to jasne ukazaly ATI byla pomalejsi v DX9 nez v DX10.

2. POstup ala Nvidie, kdy se navrhl jakýsi polo DX10, ktery se sice na venek tvari jako hodne unifikovanych jednotek, ale uvnitr je na tom podobne. Navic kvuli tomu potrebuje dve jednotky na zpracovani obrazu ­(proto maji Nvidie tu divnou velikost pameti, protoze je tam napr 512 Mb ram pro hlavni GPU a 256 Mb pro cast ktera ma na starost filtrovani.

Zatimco u ATI delaji vsechny jednotky vsechno a maji spolecnou pamet. U Nvidie tomu tak neni. Jejich DX10 je takove no ne uplnene. Proto optimalizace her na Nvidi v tomto pripade zanmena uplne jiny postup programovani nez u ATI. Prestoze by to melo byt stejne ­(napriklad zretezeni instrukci je v obou pripadehc uplne jine­).
Proto Nvidie mela tak velkou prevahu, kterou ATI stahla, proto ma ATI lepsi pomer cena vykon. Jeji grafiky jsou levnejsi a presto mnohdy presahuji vykonem vyrazne drazsi Nvidii.
Odpovědět0  0
FesterE36 | 16.10.200714:08
Ta pamat nVidii je fakt cudna, jak to s nou vlastne je? DX9 karty maju 1 pamat, DX10 karty tiez. Iba DX9­/DX10 nVidie maju kvazi 2 pamate. Ono mi to pripada jak keby v aplikaciach tvariacich sa ako DX10 ­(crysis, bioshock..­) jedna ukladala skripta sceny v DX9, a druha jednotka ich nejak nezavisle dekodovala do DX10 a posuvala na spracovanie. No ja neviem, nepoznate daky link kde o tom je pisane? moze byt aj v ANG
Odpovědět0  0
Potoo | 11.10.200716:57
Tak DX10 je proste jenom dalsim evolucnim kruckem. Kdo veril MS, ze DX10 bude pri stejne kvalite obrazu rychlejsi jak DX9, tak to je ciste problem jeho vlastni naivity. DX10 nabizi po vizualni strance nove veci, ale bohuzel ne moc odlisne od toho, co ma uz v sobe DX9 do jiste miry i kvuli lenosti vyvojaru. To, ze se da udelat hra naprosto uchvatna po vizualni strance i pod DX9 dokazuji prave vyvojari Crysis, kteri si jako jedni z mala v dnesni dobe s tim davaji praci.
Nejvetsi problem bych videl v tom, ze MS udela DX10, ale podmini ho operacnim systemem Vista, coz je ciste krok z trucu da se rict. Diky tomu, ze Vistu vetsina lidi nechce a jedou na XPckach se pak nikomu prilis nechce neco v DX10 delat a vetsina her je porad DX9 pripadne s DX10 patchem. Kdyz pak na takovou situaci na trhu pohlizi vyrobci HW jako nVidia, tak to dopadne stylem, ze G80 neni plne DX10 cip, ale je jakysi hybrid mezi DX9 a DX10, ktery urcite veci resi tou rychlejsi metodou. Cili pokud je to rychlejsi, tak pouziva metody z DX9, ale podporuje zaroven i efekty spojene s DX10. Nasledne pak nVidia cpe penize do vyvojaru, aby svoje hry prizpusobili tomuhle hybridu a nadava na ty vyvojare, kteri si dovoli delat hru podle DX10 standardu, ktery jejich kartu nuti pracovat pomalejsi cestou. Kdyz navic Ati udela plne DX10 kartu, ktera postupy pouzivane v DX9 uz neumi a vse dela tak, jak je to implementovano v DX10, tak dojde k tomu, te karta Ati je pod DX9 pomalejsi. Navic vetsina her je optimalizovana na to, co vyhovuje kartam nVidie, i kdyz to nesplnuje stanovene standardy a pokud se nekdo pokusi udelat neco pod tech standardu, tak nVidia nadava, ze nadrzuje Atine, ze je placen Atinou a kdo vi co jeste. A byti jsou z toho samozrejme uzivatele, protoze ten hybrid jsou pak nuceni pouzivat a kazdou chvili hledat nove ovladace s optimalizaci na to a ono, protoze nic neni delano, tak jak by melo a proto to taky bez optimalizaci a uprav ovladacu nefunguje. Pak se do toho jeste vlozi vyvojari pracujici i na hrach pro next­-gen konzole, kteri zase chteji, aby PC hry byly co nejsnaze portovatelne a ovlivni tim koncovy vzhled her pro PC, jako treba v pripade Bioshocku. V tomhle smeru je DX10 zcela k nicemu a pokud ma byt i nadale jen pro Visty, tak to bude delat jenom problemy.
Odpovědět0  0
Grovik (54) | 11.10.200717:07
Presne tak!
Odpovědět0  0
Tunseng (346) | 12.10.20079:41
Ale houby presne tak .... neustale placa o dx10 jako nejakem standardu, DX10 neni zadny standard. Je to jen dalsi z rady zbytecnych verzi produktu MS , to ze se musi pouzivat neni nikde dano a zrovna tak se muze stat ze MS bude jeste rad kdyz to prosadi skrze automaticke aktualizace Windows Xp ... nvidia se chova racionalne z toho co jsi popsal, zatimco ati mozna az prilis veri marketingovemu oddeleni ms ...
Odpovědět0  0
JonSnih (49) | 11.10.200715:46
Rozdíly mezi kvalitou nastavení detailů:
http:­/­/www.incrysis.com­/index.php?option=com_content&task=view&id=511
Na nejvyšší detaily lze hru nastavit jen pod DX10. A navíc jen pod DX10 bude prostředí tak interaktivní ­(zničitelné­), jak tvůrci slibovali; pod DX9 je to bída ­- viz. dojmy z beta multiplayeru:
http:­/­/games.tiscali.cz­/reviews­/crysismpd­/index.asp

Osobně si myslím, že DX10 je krok správným směrem. Přidává spoustu nových efektů, větší detaily prostředí, optimalizuje běh náročných shaderů ­(SM4 = SM3 s rychlejšími výpočty­), geometry shader umožňuje změnu textury přímo v GPU... Ale to všechno si žádá větší nároky na grafiky, s G100 a R700 už to pojede jako po másle. Kdyby mělo být prostředí v DX9 tak detailní jako přes DX10, nároky by byly mnohem vyšší ­- a to je fakt.
Odpovědět0  0
Grovik (54) | 11.10.200716:47
Sleduj co pises!
SM4 = SM3 s rychlejšími výpočty
-Tohle tvrzeni je samozrejme blbost, vypocet je na stejnem HW vzdy stejne rychly, pokud upravym HW tak aby zvladal nejaky vypocet rychleji, stane se tak, ovsem pravdepodobne tim zbrzdim jiny vypocet.
SM4 ­- je o Unifikaci Shaderu, presneji Drive umela jednotak jen jeden vypocet, dnes umi podobna jednotka vsechny druhy vypoctu. Jeji vypocty se tim samozrejme nezrychlily. Naopak. Ale dnesni GPU maji dalekovice techto jednotek takze v realu se jedna o narust vykonu.

Ale to všechno si žádá větší nároky na grafiky, s G100 a R700 už to pojede jako po másle.
- Tady sam priznavas, ze stejna grafika bude potrebovat jeste vykonejsi kartu, aby byla plynula. V cem je teda problem?
Karta s podporou DX9 neumi to co karta s DX10? Ale samozrejme ze umi, ale je pomalejsi takze nema tolik detailu.
Ovsem pomala grafika s DX10 neni rychlejsi v DX9. Co z toho plyne? Ze DX10 a DX9 jsou na tom s vykonem a vubec zpracovanim v podstate stejne. Pouze je potreba nejak to prodat a tak to zabalime do recicek jakoze je to velky krok kupredu.
To ze hra neumozni v DX9 neco a v DX10 ano, neni proto, ze to neumi. Je to proto ze je potreba prodavat.
Odpovědět0  0
JonSnih (49) | 11.10.200717:49
SM4 vx. SM3:
Takto je to jasnější:
Scéna má 150 efektů; když použijí DX10, díky optimalizacím v této verzi, poběží hra plynuleji. Ale protože MS rozhodl, že potřebuje prodávat Visty, tlačí na vývojáře, aby u hry pro DX9 použili jen těchto 150 efektů a verze s DX10 jich bude mít 200 ­- to je důvod pro výkonnější HW.

Tolik ke zdůvodnění proč je nutnější výkonnější HW. Co se týká výpočtů, měl jsem za to, že díky různým vychytávkám ­(větší registry apod.­) proběhnou výpočty rychleji ­- nejsem vývojář, tak budu věřit tomu, co píšeš ty.

Groviku, chápu tvojí naštvanost na MS, ale s tím se nedá nic dělat.
Odpovědět0  0
Grovik (54) | 11.10.200718:37
Ono je to cele jeste trosicku jinak, ale v zasade je to vystizne. Ten problem je jeste v tom, ze se vsichni snazi tvrdit ze to takhle neni.

Mimochodem vzdy se da neco delat. Pouze lide jsou lini to udelat ;­-­)

Tahle diskuze zacala tim, ze MS tvrdi opak nez je realita a nekdo mu to halt basti :­-­), nastesti lide jako treba ty. Ne. Coz je dobre.
Odpovědět0  0
m_soldier (9) | 11.10.200717:57
Tak mi potom vysvetli jaktoze ma treba GF8800 ultra o 100% a vic vetsi vykon nez nejrychlejsi ATI v DX10 hrach, kdyz ­"NVIDIA ma horsi architekturu­".. podle me ma GF8 spickovou architekturu, se skoro tretinovym poctem shaderu, nizsimi frekvencemi apod. ma nesrovnatelne vyssi vykon v DX10 hrach, viz treba testy na tomshardware.com
Odpovědět0  0
Grovik (54) | 11.10.200718:34
1. ATI kompletne prekopane jadro, ktere je plne unifikovane, v podstate se jedna o obrovske mnozstvi vektorovych jednotek. Tenhle navrh ma mnoho vyhod, ale i par nevyhod. SW napsany tak ze pocita s urcitym mnozstvim specialnich jednotek, tady proste nefunguje dobre a je potreba to v ovladacich doladit. Prvni testy, to jasne ukazaly ATI byla pomalejsi v DX9 nez v DX10.

2. POstup ala Nvidie, kdy se navrhl jakýsi polo DX10, ktery se sice na venek tvari jako hodne unifikovanych jednotek, ale uvnitr je na tom podobne. Navic kvuli tomu potrebuje dve jednotky na zpracovani obrazu ­(proto maji Nvidie tu divnou velikost pameti, protoze je tam napr 512 Mb ram pro hlavni GPU a 256 Mb pro cast ktera ma na starost filtrovani.

Zatimco u ATI delaji vsechny jednotky vsechno a maji spolecnou pamet. U Nvidie tomu tak neni. Jejich DX10 je takove no ne uplnene. Proto optimalizace her na Nvidi v tomto pripade zanmena uplne jiny postup programovani nez u ATI. Prestoze by to melo byt stejne ­(napriklad zretezeni instrukci je v obou pripadehc uplne jine­).
Proto Nvidie mela tak velkou prevahu, kterou ATI stahla, proto ma ATI lepsi pomer cena vykon. Jeji grafiky jsou levnejsi a presto mnohdy presahuji vykonem vyrazne drazsi Nvidii.

Taky je nejrychlejsi ATI o 150% levnejsi nez nejrychlejsi Nvidie ;­-­).
Odpovědět0  0
FesterE36 | 11.10.200720:49
Proste keby MS nebol chamtivy tak by doteraz vsetko bezalo na DX9 vsetko by bolo OK. A to preco ma nVIDIA lepsi vykom je koli tomu hybridu, uplati vyvojarov nech robi hry podla nich a potom ked zapinas hru sa objavi: meant to be played ­-­-­-> nVIDIA.
Proste nVIDIA je leniva a radsej uplaca vyvojarov ako by tie peniaze mala investovat do vyskumu asi.
Cize DX9 je skutocny svet a DX10 je len zastera pred ocami naivnych ludi ktora nam ukazuje tu istu grafiku len kvalitnejsie vyrenderovanu so slovami: toto dokaze LEN DX10. A clovek si to potom musi kupit. Hotovy Matrix :)
Odpovědět0  0
Grovik (54) | 11.10.200721:07
No celkem tak :­-­).
On DX10 muze mit lepsi vysledek, ale je to kvuli tomu ze napriklad nove grafiky maji misto 16 bitoveho registru 32 bitovy takze dokazou delat presnejsi vypocty. Proto muze DX10 kour vypada lepe. Coz ovsem nesouvisi s DX10, ale jen a pouze s presnosti vypoctu. Tohle by klidne mohlo fungovat i pod DX9.
Odpovědět0  0
zero8324 | 11.10.200712:01
No neviem ako Vám, ale mne sa zdá pri pohlade na screen­-i ­( http:­/­/www.sector.sk­/novinka­/36147­/crysis_oficialne_poziadavky.htm ­)z Crisis, sa zdá rozdiel medzi DX9 a DX10 urobený úmyselne z cielom znevýhodniť DX9 ­(ako ked sa nepoužije HDR­(dx9­) a použije HDR ­(dx10­). Prípadne je zvýšená dohladnosť ­(ale myslím že renderovanie tých istých cielov v pozadí bola aj v DX9 ­- MRT, myslím že ATI sa tým chválilo, pri hre FarCry­). No neviem ale zdá sa mi že CryTek to robí naschval, aspom s môjho subjektívneho pohladu. čo vi na to?
Odpovědět0  0
Grovik (54) | 10.10.200723:01
a potom ze vista si z vykonu neukousne vic nez XPcka ;­-­) po precteni muzu konstatovat jedine, to ze jsem to rikal jaksi dost dobre nepopisuje situaci.
Odpovědět0  0
Tunseng (346) | 11.10.20078:16
Ze visty jsou nenazrane na operacni pamet a vykon tu vi myslim kazdy. Nemusis si hrat na tu jedinou osvicenou bytost :­-­). Tusim ze jediny kdo to usilovne popira svymi FUDy je Microsoft a jeho predsunuta propagacni divize v cele s radkem hulanem..
Odpovědět0  0
ljelinek (25) | 11.10.20078:58
Ano, takova XPecka byla proti Win98 take nenazrana. A co? Technika jde dal, tak proc toho nevyuzit? To same, myslim, s Linuxem. Vzpominam na doby, kdy kluci z CVUT jeli Linux na pocitacich, na kterych by ted sice asi jel take, ale v tom samem minimu, co pred lety. Coz je sice hezke, ale pro bezne uzivatele nepouzitelne. Takze at uz Wokna nebo Linux, jsou to hlavne omalovanky pro lidi ­(nemam na mysli vlastnosti, ktere bezny uzivatel nevidi­) a s masivnejsim rozvojem Linuxu to bude cim dal vice znatelne ­(uz je­).
Odpovědět0  0
Grovik (54) | 11.10.200711:37
Jak je to pro bezneho uzivatele nepouzitelne? Uzivatel psal ve Wordu pred desti lety a pise v nem porad! Mozna dokonce v tom samem Wordu.
Stejne tak je Crysis stejne na Xpckach jako na Viste ­(odpustme si DX10 to ze DX10 nefungujena XP je jen politika MS­), presto ma na Vista vetsi naroky.
Proto si jeste jednou precti co jsi napsal a uvedom si ze takova argumentace je spatne.
Odpovědět0  0
Petr Popelka (251) | 10.10.200722:30
Jsem moc zvědav jak tahle gamesa poběží mně. Plánuju přejít ze současného Athlonu X2 4400+ ­(@2,66 GHz­) na nějaký levný C2D ­(např. E2180, samozřejmě s taktéž navýšeným taktem­) v kombinaci se 2 GB RAM a přetaktovanou GeForce 8600GT 512 MB:­-­). Už teď ale odhaduju, že v mém případě se 1680x1050 + 4xAA asi konat nebude:­-­)­)­). No, nechejme se překvapit...
Odpovědět0  0
snajprik (1637) | 11.10.20076:26
Ja na tvojom nieste by som nemenil, ked mas Athlon X2 2,66GHz neake to 1GB pamate a 7600GT tak narast výkonu nebude nič moc zbytočne vyhodene prachy,skor pockaj na ATI 2950 a ešte dopln ramku a až potom pocitiš vykon :)
Odpovědět0  0
Potoo | 10.10.200722:14
Tak ty naroky nezni spatne. Bezny C2D jde cenove hodne dolu a po prichodu Penrynu by dvoujadra mely byt pomerne levnou zalezitosti. Dva giga ramky vas dneska taky moc nestoji a co se tyka grafiky, tak pristi mesic vyjdou novy grafiky na G92 a RV670 s mainstremovou cenou, ale vykonem dnesniho highendu da se rict. Cili v dobe vydani bude Crysis bez problemu hratelna na beznym mainstream kompu a to je myslim slusny, na tu uroven grafickych detailu, ktere nabizi.
Odpovědět0  0
Ellessar (125) | 10.10.200722:13
Myslim si, ze na takych GPU ta hra bude hratelna len v nizkych rozliseniach a bude lagovat...
Odpovědět0  0
Tunseng (346) | 11.10.20078:12
asi ano, ale ber to z te lepsi stranky. Tyhle HW­-krveziznive hry byly vzdy motorem dalsiho vykonostniho skoku na poli GPU .... napriklad vzpomen na 3DMark2005 ktery byl snad prvnim 3D markem ktery byl slideshow i na hiend grafikach ... nasledoval 3D mark2006 ktery ztrojnasobenim detailu tomu dal jeste poradne na frak ... a vida, nvidia vyrukovala s gf 8800 ktera byla obrovskym vykonostnim skokem ­(rozhodne ne jen evoluci v ramci ocekavani­), a 3D mark zdolali :­-­) ... takoveto vyzvy jsou proste zdrave.
Odpovědět0  0
snajprik. | 10.10.200718:16
To je len propaganda a ked chce hrat niekto na full detajloch. Ale ked mu nebude treba vyhladzovanie a stačia mu normalne klasicke detajli, tak si to zahraje na hociakom procesore ­( oktem celeronu­) a na hociakej dnešnej GPU ­( nie integrovanej :)
Odpovědět0  0
Héctor | 10.10.200720:33
a Semprony si kde nechal? :­))
Odpovědět0  0
Tunseng (346) | 11.10.20078:09
proc by nekdo kupoval semprony kdyz o plnohodnotne athlony jsou snad jen o par stovek drazsi ...
Odpovědět0  0
Sam999 (6) | 1.11.20079:33
Pravda, mám už super starou šunku AXP 2000+, 512MB RAM a Radeon X800GT 256MB a zkoušel jsem demo Crysis a čekal jsem že buďto to vůbec nerozjedu nebo že se to bude trhat, tak, že se to nebude hrát ­(protože je to hluboko pod min. požadavkama­). Ale překvapení bylo, že jsem to rozjel hratelně na 800x600 na min detaily. sice semtam fps drop, ale jinak pohoda a takových 20 fps to dalo :­) Ale na druhou stranu mi Windows po nějaké době nahlásil kritické minimum virtuální paměti:(
Odpovědět0  0
FesterE36 | 11.10.200713:43
Crysis, jeho trailery a poziadavky, tak ako aj ostatne hry su len velky marketingovy tah z ktoreho zarobia tvorcovia, AMD, Intel a nVIDIA :D
Odpovědět0  0
c.Data | 10.10.200718:14
Tak to bych čekal něco jako 2xGTX...takhle to jde. Moje VISTA v 4GB DDR2 800MHz, AMD 2x 6000+ a 8800 GTX to by mělo stačit....
Odpovědět0  0
guzii (375) | 10.10.200718:13
Upřímně řečeno mi přídou mírnější, než jsem čekal. Když to porovnám s DOOMem 3, který když vyšel byl prakticky nehratelný na highendu, tak mi Criysis nevychází s tak extrémníma nárokama.

Minimální konfiguraci má doma dnes prakticky každý ­(alespoň jeden kus pc­)

Mě osobně spíš zarážejí porovnání cpu. C2D na 2GHz zajisté neodpovídá A64 na 2GHz atp.
Odpovědět0  0
x_R | 10.10.200718:24
Tak s tim DOOMem 3 je to pekna ptakovina. Ten prave jel plynule na cemkoliv, co melo grafiku NVIDIA a aspon 768 MB RAM.
Odpovědět0  0
guzii (375) | 10.10.200719:02
Samozdřejmě je hraní a hraní. Nebavím se tady o hraní při rozlišení 800x600 a minimálních detailech s 23FPS ;­) ... když to malinko přeženu
Odpovědět0  0
Héctor | 10.10.200720:31
doom 3 si dobre pametam, to som mal XP 2400, 384 MB RAM a FX 5200 Ultra a ta hra isla pomerne plynulo 1024x768 na stredne detaily, sem­-tam boli prepady fps, ale urcite sa to dalo hrat... a 768 MB RAM urcite nebolo optimum, ked vtedy kazdy druhy mal PC zo sharku s 256 MB RAM
Odpovědět0  0
ryccardo | 11.10.20079:05
Cože?? Já to s odporem dohrál na 6600LE, XP3200, 512 RAM. Rozlišení 800x600 minimální detaily a i tak se to sem tam sápalo. Zkousnul jsem to jen z nostalgie k DOOM2. Na mašině co popisuješ se to snad ani nemohlo spustit.
Odpovědět0  0
Héctor | 11.10.200712:13
no, napr. kamarat to hrava na svojom obstaroznom compe a ma tam nataktovanu FX 5200 a ide mu to podobne, skus sa pohrat s podrobnymi nastaveniami detailov, alebo daco podobne
Odpovědět0  0
Sam999 (6) | 1.11.20079:25
Souhlas. Mám AXP 2000+ ­(Thorton, 512MB RAM a X800GT a trhá se to ve všech nastaveních kvality a rozlišení stejně.
Odpovědět0  0
FesterE36 | 11.10.200713:35
Hraval som Doom 3 na Durone 750MHz 393MB RAM GF4Ti. 640*480 vsetko na low a islo to, nehovorim ze plynulo, celkom casto framedrop ale, proste islo to:)
Odpovědět0  0
_AL_ | 11.10.200717:26
ve hre je built­-in timedemo, dooma 3 sem hral na high ­(vse ostatni na max­) v 1024x768 a delalo to 55 FPS, naprosto hratelny, na P4 @2808 512RAM a FX5900XT. V ty dobe nic high endovyho. I kdyz za podobny penize, jako dnes prave C2D, 2G RAM, a 640
Odpovědět0  0
Potoo | 10.10.200722:10
Doom3 byla ptakovina ve forme pobihani ve tme, na kterou skutecne neni treba kdo vi jakeho HW. Nebyt prehnaneho marketingu, tak po nem nikdo nestek.
Odpovědět0  0
Tunseng (346) | 11.10.20078:07
jiste z herniho hlediska to byl proste jen doom ... nic vic ale take rozhodne nic mene ! ... byl to v kazdem pripade dustojny naslednik serie. Co je vsak dulezitejsi je jeho herni engine ktery ID software smozrejme licencuje dalsim vyrobcum a tak se na jeho zaklade posleze objevily desitky dalsich i kvalitnejsich her, napriklad Pray .... rozhodne nesouhlasim s tim tvym blabolem, ze by po nem nikdo nestek, rozhodne to byl sveho casu velky projekt ktery vyrazne vycnival nejen co do dobreho marketingu jak uvadis ale i co do kvality
Odpovědět0  0
Moas | 11.10.20078:32
Desitky???
Prey, Quake IV... a dal? To jsem vazne zvedav, jakymi tituly doplnis aspon tu prvni desitku ;)
Odpovědět0  0
Potoo | 11.10.20078:40
Presne, nevim o desitkach her. Vim jenom to, ze desitky her maji vyjit a uz vychazeji na konkurencnim enginu z pripravovanyho novyho Unreala. Doom3 rozhodne nebyla zadna bomba, stejne tak Quake IV na nem zalozeny. A bez marketingu a znameho jmena diky predchozim seriim by o Doom3 rozhodne takovy zajem nebyl a dokazuji to i ohlasy z ruznych for po internetu, kdy spousta lidi si tu hru poridilo, ale pak nedohralo. Moc kvalitnich her uz pak na Doom3 enginu nevyslo a nevychazi, coz v porovnani s predchozim Quake3 enginem, na kterem vysla halda her, dava jasne najevo, ze to zadny zazrak neni.
Odpovědět0  0
Zajímá Vás tato diskuze? Začněte ji sledovat a když přibude nový komentář, pošleme Vám e-mail.
 
Nový komentář k článku
Pro přidání komentáře se přihlaste (vpravo nahoře). Pokud nemáte profil, zaregistrujte se pro využívání dalších funkcí.